مولّدات الفيديو بالـAI بلغت مستوى لا تصدّقه العين
Friday, 17-Oct-2025 06:35

نُرحِّب بمرحلة جديدة من الزَيف البصري، إذ لم تَعُد الصور والفيديوهات دليلاً على الحقيقة، بل مجرّد مواد قابلة للتوليد بلحظة، بفضل أدوات مثل تطبيق Sora الذي أطلقته شركة OpenAI، صانعة برنامج ChatGPT الشهير.

هذا التطبيق، المتاح مجاناً على أجهزة iPhone، يُتيح لأي مستخدم كتابة وصف بسيط - كأن يقول مثلاً: «لقطة من كاميرا شرطي تُظهر كلباً يُعتقل بتهمة سرقة لحم من كوستكو» - ليحوّلها النظام خلال دقيقة واحدة إلى فيديو واقعيّ المظهر بشكل مذهل.

 

منذ ظهوره، اجتاح «سورا» الإنترنت بين مستخدمين يصنعون فيديوهات ترفيهية ساخرة: مشهد لراكون داخل طائرة، أو معارك بين نجوم هوليوود بأسلوب الأنيمي الياباني. لكن سرعان ما تحوّلت التسلية إلى قلق، بعدما استخدمه آخرون لنشر مقاطع مضلّلة أو فيديوهات أمنية مزيّفة توثّق جرائم لم تقع أصلاً.

 

إلى جانب «سورا»، أطلقت شركات مثل «ميتا» و«غوغل» أدوات مشابهة، ما يُشير إلى أنّ العالم يدخل مرحلة جديدة قد تُنهي فكرة «الدليل المرئي». فالفيديو الذي كان يُعتبر أكثر أشكال الإثبات صدقية، لم يَعُد كذلك. وبحسب أستاذ علوم الحاسوب في جامعة كاليفورنيا، رين نغ فإنّ «عقولنا مبرمجة لتُصدِّق ما تراه، لكن علينا أن نتعلّم التوقف والتفكير قبل أن نُصدِّق أنّ ما نشاهده حدث فعلاً».

 

التطبيق الذي أصبح هذا الأسبوع الأكثر تحميلاً في متجر «آبل»، أثار قلقاً واسعاً في هوليوود، إذ اتهمت بعض الاستوديوهات «سورا» بانتهاك حقوق الملكية الفكرية لأفلام ومسلسلات وشخصيات. وردّ المدير التنفيذي لشركة OpenAI سام ألتمان بالقول، إنّ الشركة تعمل على تطوير آليات تمنح أصحاب الحقوق سيطرة أكبر وتعويضات مالية مقابل استخدام أعمالهم.

 

يُذكر أنّ صحيفة «نيويورك تايمز» رفعت دعوى قضائية ضدّ OpenAI ومايكروسوفت بتهمة انتهاك حقوق نشر محتواها الإخباري، فيما نفت الشركتان تلك الاتهامات.

 

كيف يعمل «سورا»؟

 

على رغم من أنّه متاح للتحميل، إلّا أنّ استخدامه يتطلّب رمز دعوة (Share Code) من مستخدم آخر. واجهات التطبيق تشبه «تيك توك» و«ريلز»، حيث يكتب المستخدم وصفاً للمشهد الذي يُريد تَوليده، أو يُحمّل صورة حقيقية ليحوّلها إلى فيديو. بعد دقائق، يمكنه نشر المقطع داخل التطبيق أو تحميله ونشره على أي منصة أخرى.

 

النتائج تفوّقت بوضوح على ما تقدّمه أدوات مثل Veo 3 (غوغل) أو Vibe (ميتا)، من ناحية الدقة والواقعية البصرية.

 

ماذا يعني ذلك للمستخدم العادي؟

يعني ببساطة أنّ أي فيديو تشاهده على «تيك توك» أو «إنستغرام» أو «يوتيوب شورتس» قد يكون مزيّفاً بالكامل. لقد دخلنا زمن الزَيف الفائق، ولن يعود الفيديو دليلاً على الحقيقة. ويرى الباحث لوكاس هانسن، من مؤسسة CivAI، أنّه «لن يجرؤ أحد بعد اليوم على اعتبار الفيديو دليلاً على أي شيء».

 

ما المخاطر المحتملة؟

 

على رغم من أنّ OpenAI وضعت قيوداً تمنع توليد محتوى جنسي أو متطرّف أو طبّي مضلّل، فإنّ الاختبارات أثبتت سهولة التحايل على الضوابط. خلال ساعة واحدة فقط من الاستخدام، تمكّن الكاتب من توليد:

 

- مقاطع «داش كام» مزيّفة يمكن استخدامها في احتيال التأمين، مع إمكانية تعديل أرقام اللوحات.

- فيديوهات تُقدِّم ادعاءات صحية كاذبة مثل الترويج لفوائد أطعمة غير صحية.

- تقارير إخبارية مزيّفة تُشهّر بأشخاص حقيقيِّين.

 

وسرعان ما امتلأت «تيك توك» بمقاطع زائفة مشابهة: شاحنة تسقط منها سيارة «تسلا»، أو تقرير وهمي عن قاتل متسلسل، أو فيديو لزبون يُطرَد من مطعم لأنّه أكل كثيراً.

 

تؤكّد OpenAI أنّها أدرجت داخل مقاطع «سورا» علامات مائية رقمية وبيانات تعريفية تسمح بتتبُّعها، مؤكّدةً أنّ سياساتها «تحظّر انتحال الهوية والخداع، وأنّها تتخذ إجراءات فورية ضدّ سوء الاستخدام».

 

كيف يمكن التمييز بين الحقيقي والمزيّف؟

 

على رغم من العلامات المائية، بدأ المستخدمون بحذفها أو قصّها. عادةً ما تكون مقاطع «سورا» قصيرة (حتى 10 ثوانٍ)، لكنّ جودتها السينمائية العالية يجب أن تُثير الشك، لأنّ النماذج دُرِّبت على مشاهد من أفلام ومسلسلات.

 

النُسَخ الحالية لا تزال ترتكب أخطاء مثل كتابة أسماء مطاعم بشكل خاطئ أو تزامن غير دقيق بين الكلام وحركة الفم، إلّا أنّ هذه الثغرات ستختفي سريعاً مع تطوّر التقنية، بحسب الخبير هاني فرد، من جامعة كاليفورنيا ومؤسس شركة GetReal Security. ويُضيف فرد بلهجة حادة: «وسائل التواصل الاجتماعي أصبحت مكبّاً رقمياً. الطريقة الأضمن لتجنّب الزَيف هي التوقف عن استخدامها».

 

هكذا، ومع انتشار مولّدات الفيديو الفورية، يبدو أنّ الحقيقة البصرية دخلت مرحلة الانقراض. في زمن «سورا»، كل ما تراه على الشاشة قابل لأن يكون خيالاً مطلقاً.

الأكثر قراءة